蚂蚁集团推出首个开源的万亿参数推理大模型
今天凌晨,蚂蚁集团研发的首个万亿参数大模型「Ring-1T-preview」在Hugging Face上线,该模型是一款自然语言推理大模型,也是全球首个开源的万亿参数推理大模型。
今天凌晨,蚂蚁集团研发的首个万亿参数大模型「Ring-1T-preview」在Hugging Face上线,该模型是一款自然语言推理大模型,也是全球首个开源的万亿参数推理大模型。
今天凌晨,蚂蚁集团研发的首个万亿参数大模型「Ring-1T-preview」在Hugging Face上线,该模型是一款自然语言推理大模型,也是全球首个开源的万亿参数推理大模型。
这项由抖音SAIL团队与新加坡国立大学LV-NUS实验室联合开展的研究发表于2025年9月,论文详细介绍了他们开发的SAIL-VL2多模态基础模型。有兴趣深入了解的读者可以通过论文链接https://huggingface.co/BytedanceDouyin
核心目标是打造一个全向、对等、智能的互联新范式,使集群中任意AI芯片之间、AI芯片与CPU之间都能直接高速访问彼此的内存,彻底解决智算集群中的内存互访难题,为大规模并行计算提供坚实的技术基石。
SuperCLUE是一个综合性的大模型评测基准,本次通过对数学推理、科学推理、代码生成、智能体Agent、幻觉控制、精确指令遵循六个维度的核心能力进行评估,共计1260道题目。)
架构与算力差距: 国内大模型在架构与算力方面与海外存在显著差距。架构上,国内近年追赶迅速,但多在海外已定义的架构基础上进行,如Transformer MOE、强化学习搭配人类辅助等架构多由海外提出,国内缺乏自研突破性创新。
近年来,混合专家模型(Mixture of Experts,MoE)在大型语言模型领域展现出巨大潜力。MoE 架构是一种高效扩展模型规模的新技术,利用了“分而治之”的思想,设计了一系列不同的子网络(称为“专家”),通过门控网络来动态决定当前的输入应该交由哪几个
WEWA全称可以理解为“World Engine+World Action”。它把实现自动驾驶的思路拆成两层,一层在云端,负责“造世界、训练模型、把难题推演透”;另一层在车端,负责“看世界、理解世界、直接下决定并把车开出去”。云端是大脑的训练工厂,车端是实时决
大模型正在加速进化,从“能处理多种模态”走向“真正的全模态”。这意味着,它们不仅会生成文字、图像、语音、视频,还能把这些能力融会贯通,做到跨模态的理解与生成统一。然而,要让模型既能完成复杂推理,又能感知动态场景、把握长时上下文,其实远比“功能堆砌”要复杂得多,
在目标检测领域发论文,竞争确实够激烈,但并不是完全没机会。就发展前景而言,它还远远没达到“瓶颈期”,因为只要机器还需要“看”和“理解”世界,它就是不可或缺的关键技术。
当前,我们正处于两个“ Scaling Law”激烈碰撞的时代。⼀个是摩尔定律的Scaling Law,就是摩尔定律,⼤家的看到的共识就是摩尔定律从2015年开始就已经显著放缓了,也就意味着单位芯片面积上能提供的性能增量变得越来越小。但是我们感受到,芯片的性能
“极”字乱飞把代码整成乱码,昨晚三点还在改Bug的程序员,今天一早发现DeepSeek悄悄打了个补丁。
DeepSeek官方宣布DeepSeek-V3.1更新至 DeepSeek-V3.1-Terminus 版本。
之前文章已介绍引入大规模 EP 的初衷和 TensorRT-LLM 的大规模专家并行架构设计与创新实现。本篇将具体介绍 TensorRT-LLM 在线负载均衡策略与实测解析。
说到大模型,很多人脑海里第一反应都是“算力怪兽”、“土豪拼参数”,可你知道吗,其实在这条道路上,想跑得快、跑得远,光有参数根本不够用。
对 MLOps 团队而言,AI 基础设施的关键变化在于:以网络为先的集群设计、面向内存的调度策略,以及数据中心级的供电与散热。优化目标应聚焦于集群层面的作业吞吐、可靠性与可运维性,而非单卡峰值指标。本文将最新基础设施进展转化为可落地的指导手册、SLO 与采购要
“MoE+Long-CoT(长思维链)+RL(强化学习)” 这条技术路线存在难以兼顾训练稳定性和效果的难题。9 月 19 日,蚂蚁百灵大模型团队把 “难啃的骨头” 直接做成开源礼包 ——Ring-flash-2.0。100B 总参、6.1B 激活,数学 AIM
在第三届 NVIDIA DPU 中国黑客松竞赛中,我们见证了开发者与 NVIDIA 网络技术的深度碰撞。在 23 支参赛队伍中,有 5 支队伍脱颖而出,展现了在 AI 网络、存储和安全等领域的创新突破。
今天,蚂蚁百灵大模型团队正式开源其最新 MoE 大模型 ——Ling-flash-2.0。作为 Ling 2.0 架构系列的第三款模型,Ling-flash-2.0 以总参数 100B、激活仅 6.1B(non-embedding 激活 4.8B)的轻量级配置
AI在企业内部应用的场景多了之后,一到业务峰值,用户并发涌上来,要是调度系统不给力、加速引擎没提效、KVCache优化不到位,服务一旦卡壳,不仅用户体验崩了,还会带来业务损失;